『Apple Vision Proアプリ開発入門』
https://gyazo.com/df7a0a6abe3f460778f6dbe2a49dee92
中村 薫 著
加藤 広務 著
上山 晃弘 著
鷲尾 友人 著
具体的なアプリ開発のコースがいくつか入っている
やるなら最初の方にやるべき
Vision Proアプリ開発者を志すみなさんへ
はじめに
本書の読み方
Chapter 1 Apple Vision Proの概要
1.1 空間コンピューティングと
1.2 Vision Proのハードウェア
1.2.1 ハードウェア仕様
1.2.2 センサー類
1.2.3 ボタン類
1.3 visionOSの特徴
1.3.1 visionOSとは
1.3.2 visionOSが提供する体験
1.3.3 開発フレームワークとツール
1.4 空間デザイン
1.5 Vision Proが実現した新しい体験
1.5.1 リアルな恐竜との新しいインタラクティブ体験
1.5.2 空間をキャンバスとした新しいアートの体験
1.5.3 3Dデータを可視化することによる新しい業務体験
Chapter 2 開発環境の使い方
2.1 開発フレームワークの紹介
2.1.1 SwiftUI
2.1.2 RealityKit
2.1.3 ARKit
2.2 開発ツールの使い方
2.2.1 Xcodeの使い方
2.2.2 シミュレータの使い方
2.2.3 Reality Composer Proの使い方
2.2.4 Unityの紹介
2.3 アプリ開発のウォーミングアップ
2.3.1 Xcodeで新規プロジェクトのUIを変えてみる
2.3.2 Reality Composer Proで3Dモデルを編集してみる
2.3.3 RealityViewで3Dモデルを表示してみる
3.2 プロジェクトの作成
3.3 UIの実装
3.3.1 テキストの表示
3.3.2 画像の表示
3.3.3 ボタンの表示
3.3.4 レイアウトの調整
3.3.5 アニメーションの追加
3.4 おみくじロジックの実装
3.5 アイコンとアプリ名の設定
3.6 まとめ
Chapter 4 ボリュームによる3Dモデルビューアアプリの開発
4.1 3Dモデルビューアの概要
4.2 プロジェクトの作成
4.2.1 ボリュームテンプレートアプリの動作確認
4.2.2 ボリュームテンプレートアプリのコード確認
4.3 3Dモデルの空間への配置
4.4 ジェスチャによる3Dモデルの回転
4.4.1 3Dモデルの回転
4.4.2 ジェスチャ操作の処理
4.5 ステップアップカスタムモディファイアの実装
4.6 まとめ
5.1 月探査アプリの概要
5.2 プロジェクトの作成
5.2.1 イマーシブテンプレートアプリの動作確認
5.2.2 イマーシブテンプレートアプリのコード確認
5.3 3Dモデルの準備
5.3.2 3Dモデルのダウンロード
5.4 3Dモデルの空間への配置
5.4.1 地球の3Dモデル配置
5.4.2 エンティティとは
5.4.3 月、ロケットの3Dモデル配置
5.5 タップジェスチャへの対応
5.5.1 ジェスチャ処理の追加
5.5.2 コンポーネントとは
5.5.3 タップ処理に必要なコンポーネント
5.5.4 ロケットの移動
5.6 カスタムコンポーネントによる動きの実装
5.6.1 カスタムコンポーネントとは
5.6.2 ECS(Entity、Component、System)の概要
5.6.3 スムーズなロケットの移動
5.7 ステップアップattachmentsによるUI表示
5.8 まとめ
Chapter 6 Reality Composer Proを利用したアプリの開発
6.1 Realityショーケースアプリの概要
6.2 プロジェクトの作成
6.3 Reality Composer Proの概要
6.3.1 Reality Composer Proの起動
6.3.2 Reality Composer Proの構成
6.3.3 3Dビューの操作
6.4 シーンの作成
6.4.1 座標軸の作成
6.4.2 マテリアルの作成
6.5 コンポーネントの追加
6.6 オーディオの追加
6.6.1 visionOSで扱えるオーディオの種類
6.6.2 オーディオファイルの準備
6.6.3 Spatial Audio
6.6.4 Ambient Audio
6.6.5 Channel Audio
6.7 パーティクルの追加
6.8 Xcodeでのシーン読み込み
6.8.1 オーディオを扱うための準備
6.8.2 シーンの読み込み
6.8.3 UIの実装
6.8.4 ジェスチャ操作の追加
6.9 ステップアップマテリアルのパラメータ制御
6.10 まとめ
Chapter 7 ARKitを利用したシューティングゲームの開発 その1 7.1 シューティングゲームの概要
7.2 プロジェクトの作成
7.3 イマーシブスペースへの遷移
7.4 3Dモデルの準備
7.4.1 ターゲットモデルの作成
7.4.2 弾モデルの作成
7.5 3Dモデルの基本動作の実装
7.5.1 Xcodeでのモデル読み込み
7.5.2 当たり判定の実装
7.5.3 当たり判定の動作確認
7.5.4 ターゲットのUIの実装
7.6 ARKitのハンドトラッキングの利用
7.6.1 プロジェクトの追加設定
7.6.2 手関節の位置情報の取得
7.6.3 カスタムジェスチャ検出処理の実装
7.6.4 カスタムジェスチャの動作確認
7.7 ゲームロジックの実装
7.8 起動画面への遷移
7.9 シミュレータでの動作確認
7.10 アイコンとアプリ名の設定
7.11 実機での動作確認
7.12 まとめ
Chapter 8 ARKitを利用したシューティングゲームの開発 その2
8.1 シューティングゲーム改の概要
8.2 プロジェクトの準備
8.3 ARKit利用機能の追加
8.3.1 プロジェクトの追加設定
8.3.2 ワールドトラッキングで弾をコントロールする
8.3.3 シーン再構築で現実の物体を障害物に使う
8.3.4 画像トラッキングでマーカー画像に反応させる
8.4 ゲームのグレードアップ(シーンの変更)
8.4.1 弾に重力を働かせる
8.4.2 空間オーディオと環境音の追加
8.5 ゲームのグレードアップ(ロジックの変更)
8.5.1 アクションパラメータの追加
8.5.2 空間オーディオと環境音の再生
8.6 アイコンとアプリ名の設定
8.7 実機での動作確認
8.8 まとめ
9.1 コラボレーションアプリの概要
9.1.1 SharePlayとは
9.2 プロジェクトの作成
9.2.1 Capabilityの設定
9.2.2 iPhoneで動作させる準備
9.3 SharePlay上の共有体験の実装
9.3.1 絵文字情報の定義
9.3.2 メッセージの定義
9.3.3 アクティビティの定義
9.3.4 アクティビティ管理クラスの作成
9.4 UIの実装
9.4.1 GroupActivityManagerの生成
9.4.2 UIの変更
9.4.3 非同期タスクの追加
9.4.4 アプリの実行
9.5 ステップアップイマーシブスペースでの体験共有
9.5.1 PoseMessageの追加
9.5.2 GroupActivityManagerの変更
9.5.3 ImmersiveViewの追加
9.5.4 ImmersiveViewへの遷移処理
9.6 まとめ
Appendix アプリ開発者のためのガイドマップ
A 本書のサンプルアプリのガイドマップ
A.1 ガイドマップとは
A.2 Chapter 4 3Dモデルビューアのガイドマップ
A.3 Chapter 5 月探査アプリのガイドマップ
A.4 Chapter 6 Realityショーケースアプリのガイドマップ
A.5 Chapter 7 シューティングゲームのガイドマップ
A.6 Chapter 8 シューティングゲーム改のガイドマップ
A.7 Chapter 9 コラボレーションアプリのガイドマップ
B Apple公式サンプルアプリのガイドマップ
B.1 Hello Worldのガイドマップ
B.2 Dioramaのガイドマップ
B.3 Swift Splashのガイドマップ
B.4 Scene Reconstructionのガイドマップ
B.5 Happy Beamのガイドマップ
どんなことができるのか知るために手を動かすフェーズには両方やってよさそう